Compte rendu de la Journée d’études « L’intelligence artificielle» du 2 février 2024 à Sciences Po Paris, dans le cadre du séminaire Théorie et économie politique de l’Europe organisé par le Cevipof et l’OFCE.
Le séminaire « Théorie et économie politique de l’Europe », organisé conjointement par le Cevipof et l’OFCE (Sciences Po), vise à interroger, au travers d’une démarche pluridisciplinaire systématique, la place de la puissance publique en Europe, à l’heure du réordonnancement de l’ordre géopolitique mondial, d’un capitalisme néolibéral arrivé en fin du cycle et du délitement des équilibres démocratiques face aux urgences du changement climatique. La théorie politique doit être le vecteur d’une pensée d’ensemble des soutenabilités écologiques, sociales, démocratiques et géopolitiques, source de propositions normatives tout autant qu’opérationnelles pour être utile aux sociétés. Elle doit engager un dialogue étroit avec l’économie qui elle-même, en retour, doit également intégrer une réflexivité socio-politique à ses analyses et propositions macroéconomiques, tout en gardant en vue les contraintes du cadre juridique.
Réunissant des chercheurs d’horizons disciplinaires divers, mais également des acteurs de l’intégration européenne (diplomates, hauts fonctionnaires, prospectivistes, avocats, industriels etc.), chaque séance du séminaire donnera lieu à un compte rendu publié sur les sites du Cevipof et de l’OFCE.
Intervenants : Céline ANTONIN (OFCE), Gilles BABINET (Conseil national du numérique), David FOREST (Université Paris-I Panthéon-Sorbonne) et Winston MAXWELL (Télécom Paris)
La perspective économique : effet de productivité et effet de remplacement de l’IA
Céline Antonin, enseignante-chercheuse à l’OFCE, chercheuse associée au Collège de France et membre du Conseil national de productivité, soulève la question de savoir si l’intelligence artificielle (IA) constitue une nouvelle forme de révolution industrielle, une nouvelle forme d’automatisme ou quelque chose de différent, considérant le fait que l’IA générative permet de créer de manière autonome des contenus originaux.
Est-ce que l’IA augmente la productivité ? On distingue deux effets de l’automatisation : l’effet d’éviction (remplacement de certaines tâches du travail humain) et l’effet de productivité (libération de temps créatif humain augmentant la productivité des salariés, gain de compétitivité, augmentation des parts de marché et donc de l’emploi). Selon l’économiste américain Richard Baldwin, les salariés vont être davantage productifs grâce à l’IA.
Une étude1 s’intéresse à l’IA dans les logiciels pour PME : elle étudie les salariés chargés du conseil aux PME. La conséquence de l’introduction de IA générative sur la productivité est de +14 % de productivité dès le premier mois. L’IA permet d’augmenter le nombre de tâches effectuées. Une autre étude2 observe l’effet de l’IA sur des diplômés du supérieur ayant des tâches de rédaction à réaliser : l’IA permet de réduire de 40% le temps de rédaction. De manière générale, on constate que l’IA a un effet d’homogénéisation : les moins bons salariés vont rattraper la productivité des bons salariés.
1 Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at work (No. w31161). National Bureau of Economic Research.
2 Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192.
3 Pawel, G., Berg, J., & David, B. (2023). Generative AI and jobs a global analysis of potential effects on job quantity and quality. International Labour Organization.
4 Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). Gpts are gpts: An early look at the labor market impact potential of large language models. arXiv preprint arXiv:2303.10130.
En matière d’emploi, observe-t-on un effet complémentaire ou de substitution ? Quelles sont les tâches potentiellement automatisables par l’IA ? Selon une étude de l’Organisation internationale du travail (OIT)3 , l’IA a un potentiel d’augmentation de productivité pour les managers (libération du temps par l’IA pour des tâches créatives) mais également un potentiel de remplacement pour les salariés de bureau. Sur l’ensemble des emplois, l’IA génère davantage de potentiel d’augmentation, quel que soit le niveau de revenu. Une étude d’Eloudou et al. (2023) estime qu’environ 20 % des travailleurs pourraient voir au moins 50 % de leurs tâches affectées par l’introduction des grands modèles de langage de type ChatGPT4 . Le potentiel de remplacement de l’IA semble surtout concerner les emplois intermédiaires.
Les enjeux de l’IA portent sur la formation, la technique, le droit, la géopolitique et l’éthique. En matière de politique de formation, pour la formation initiale, il faut anticiper les métiers de demain en formant les gens à la partie créative du travail. L’IA entraîne une plus forte demande de main d’œuvre qualifiée capable de produire du contenu non généré par IA. Sur les enjeux techniques, il faut être vigilant sur les biais algorithmiques. Sur le plan du droit, l’IA soulève des problématiques en droit de la concurrence avec une distanciation des entreprises de l’IA (notamment les GAFAM) grâce aux mégadonnées qui créent des barrières à l’entrée des marchés. Faudra-t-il repenser le droit de la concurrence à la lumière des conséquences de l’IA ? En droit du travail, l’IA pose le problème du travail précaire (plateformisation). L’IA soulève également des problématiques de protection juridique des données personnelles. Enfin, sur le plan éthique, l’IA pose la question quelle société voulons-nous, au regard des usages possibles de l’IA : souhaitons-nous être jugés, soignés par une IA ?
La perspective juridique : l’enjeu de la mise en cohérence du nouveau régime normatif de l’IA
David Forest, maître de conférences HDR associé à l’Université Paris-I Panthéon-Sorbonne, qui rappelle que le Comité permanent des représentants (COREPER) va adopter aujourd’hui le règlement sur l’IA, à la suite du document adopté par le trilogue en décembre 2023, propose la mise en perspective suivante. On peut identifier une première période (2016-2018) qui se caractérise par une approche par l’algorithme, avec un examen de la méthode (et non un examen comme produit). L’algorithme constitue une « boîte noire » : il faut alors rendre cette boîte noire transparente afin de l’auditer et garantir le respect des droits des tiers. Cette approche modifie la loi CNIL de 1978. On adopte le biais de l’éthique (et non une approche normative contraignante) : c’est, entre autres, le rapport Villani de 2018 sur la gouvernance de l’IA. Les Etats-Unis éditent de leur côté un guide de référence pour les ingénieurs de la tech.
La période actuelle se caractérise par une densification normative : directive de 2019 sur les données ouvertes, Digital Market Act, Digital Service Act, Digital Governance Act (2023), Data Act (11 janvier 2024). Dans cette veine, le Conseil de l’Europe travaille à une convention sur l’IA et les droits fondamentaux5. L’enjeu de ce mouvement est de donner une cohérence d’ensemble sur ces normes juridiques.
5 Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit a été adoptée le 17 mai 2024 par le Comité des ministres du Conseil de l’Europe.
Il faut avoir à l’esprit que l’IA générative date, pour le grand public et l’opinion, de ChatGPT (novembre 2022). Les systèmes d’IA reposent sur l’entraînement d’algorithme sur de vaste banque de données, à très grande échelle. Le règlement européen sur l’IA du 13 juin 2024 complète les règlements existants, dont le RGPD, d’où la complexité de l’environnement normatif actuel sur l’IA. L’approche retenue est celle d’une approche souple basée sur le risque, avec une gradation des sanctions (4 catégories de risques : risque minimal, risque limité, risque élevé, risque inacceptable). Sont considérés comme constituant un risque inacceptable : les usages de l’IA en médecine, pour la reconnaissance des émotions, ou scoring pour l’attribution de crédits.
Un problème majeur posé par l’IA est le pillage silencieux par les systèmes d’IA de droits exclusifs (droits d’auteur) qui supposent une autorisation préalable (c’est le procès du New York Times contre OpenAI). L’entrainement et le sourçage par l’algorithme correspond-il à un acte de reproduction ? Y compris si l’IA ne produit pas un contenu similaire aux sources sur lesquelles elle s’est exercée ? La directive de 2019 donne une définition modifiée de la reproduction qui suppose une communication indirecte à un public au terme d’un processus de transformation par l’IA. Une exception à ce droit de reproduction peut-elle être invoquée pour contourner par le principe de l’autorisation préalable ? Exception sur le principe de fouille de données : pour la recherche scientifique, mais peut aussi être invoqué en dehors de la recherche scientifique à la condition que le titulaire n’a pas exercé un droit d’opposition. Mais comment vérifier cela ?